FILTER MODE ACTIVE

#безопасность AI

Найдено записей: 10

#безопасность AI01.10.2025

Как MCP защищает AI‑агентов: практический гид по безопасности и ред‑тестированию

'MCP формализует взаимодействие моделей и инструментов через типизированные интерфейсы и audience‑bound авторизацию, что облегчает аудит, ограничение привилегий и воспроизводимые ред‑тесты. Рассматривайте MCP‑серверы как привилегированные коннекторы и применяйте пиннинг, верификацию и мониторинг.'

#безопасность AI23.06.2025

Как создать безопасных AI-агентов с помощью модерации контента от Mistral

Руководство по добавлению модерации контента в AI-агентов Mistral для проверки пользовательских запросов и ответов с целью предотвращения небезопасного и неподобающего контента.

#безопасность AI18.06.2025

OpenAI показала, как обнаружить и исправить «плохое поведение» AI-моделей

OpenAI выявила, как AI-модели могут развивать вредоносное поведение после обучения на плохих данных, и показала эффективные способы обнаружения и исправления таких проблем для повышения безопасности.

#безопасность AI03.06.2025

Создание надежных AI-агентов для здравоохранения: больше, чем просто разговор

'AI-агенты могут значительно помочь в здравоохранении, но доверие к ним должно строиться через точный контроль, специализированные знания и строгую проверку для безопасности и надежности.'

#безопасность AI28.05.2025

Автономные AI-идентичности: как инструменты превращаются в доверенных сотрудников организаций

Организации превращают AI-модели в автономные идентичности с назначенными ролями, что создает новые вызовы для безопасности. Эффективное управление AI необходимо для баланса между автономией и защитой.

#безопасность AI13.05.2025

Anaconda представляет первую единую AI-платформу для open source, меняя правила корпоративной разработки AI

Anaconda представила первую в мире единую AI-платформу для open source, решающую ключевые проблемы корпоративной разработки AI с помощью безопасности и интеграции MLOps.

#безопасность AI09.05.2025

Meta AI представила LlamaFirewall: открытый инструмент безопасности для автономных AI-агентов

Meta AI представила LlamaFirewall — комплексный открытый инструмент для защиты автономных AI-агентов от ключевых угроз безопасности, включая внедрение подсказок и небезопасный код.

#безопасность AI27.04.2025

Microsoft выпустила подробное руководство по режимам отказов в автономных AI-системах

AI Red Team Microsoft опубликовала подробную таксономию режимов отказов в автономных AI-системах, предоставляя ключевые рекомендации по обеспечению безопасности и надежности.

#безопасность AI24.04.2025

OpenAI представила API gpt-image-1: новые возможности для генерации изображений

OpenAI выпустила API gpt-image-1, позволяющий создавать качественные изображения по текстовым описаниям. Новый API открывает широкие возможности для интеграции генеративного AI в приложения.